samedi 15 mai 2021

Quand les APIs transforment les industries

Les APIs sont très présentes dans les programmes de transformation des entreprises, notamment pour décloisonner le système d'information et l'ouvrir à l'écosystème des partenaires et clients de l'entreprise, qui viendront y chercher des services et des données. Pour les entreprises qui produisent des machines (industrielles, agricoles, ...), c'est également la possibilité de connecter ces équipements à la transformation digitale de leurs clients, où elles deviennent de formidables sources de données pour leurs opérations.

Ouvrir, data, agile, collaboration,... les APIs cochent plusieurs cases de la transformation digitale des entreprises.

Mais ont-elles la possibilité de transformer carrément une industrie ?

C'est ce que va chercher à illustrer ce billet avec le secteur bancaire, qui paradoxalement a plutôt l'image d'être très fermé, et qui par construction va chercher à sécuriser, plutôt qu'à ouvrir à tous vents. Pourtant, l'évolution de ce secteur ces dernières années a montré l'inverse et le régulateur pousse pour que la valeur de services de l'ensemble des acteurs soit supérieure à la somme des valeurs de services de chaque acteur.

En effet, les APIs permettent la connectivité entre acteurs. On est donc principalement dans du B2B - Business to Business - quand on parle d'API.

Un premier rapprochement que l'on peut faire est donc celui de la loi empirique de Metcalfe, qui dit que la valeur d'un réseau augmente avec le carré du nombre de participants. Si les APIs permettent d'augmenter la taille d'un écosystème, la valeur de cet écosystème augmente pour tout le monde et créé de la valeur. 

Ces APIs servent principalement à échanger des données et à délivrer des services.

Une seconde idée forte est donc que la circulation des données entre deux acteurs va permettre de développer de nouveaux services qui ne pourraient pas être développés par une seule banque. Par exemple, vous avez dû remarquer que votre banque vous propose depuis peu d'afficher les soldes des comptes que vous avez dans d'autres banques concurrentes. Le bénéfice pour vous est de simplifier votre gestion de compte et depuis l'interface en ligne de la banque où votre salaire est domicilié, en pouvant facilement voir combien virer sur les autres pour les alimenter.

Ce service de gestion de compte centralisé a d'ailleurs émergé en dehors des banques traditionnelles avec des FinTech, comme Bankin ou Linxo, qui se sont positionnées à leur origine sur la gestion multi-comptes et multi-banques. On va voir que la dérèglementation a ensuite conforté ces modèles. Depuis, leur capacité d'analyse des données par des algorithmes maison, leur permet d'évoluer vers le coaching bancaire. Elles ont ainsi été consacrées par un statut d'agrégateur de services, construit sur leurs plateformes et leurs APIs.

La circulation des données délivre de la valeur complémentaire à celle des banques traditionnelles et l'algorithme, et non la donnée, est la source d'avantage concurrentiel.

Une étude de McKinsey avait marqué les esprits il y a huit ans en posant le potentiel de l'ouverture des données (pas que l'opendata du secteur public) et l'avait évalué entre 3 et 5 milliards de milliards, à l'échelle de l'économie mondiale.

Dans cette étude le domaine de la finance n'était pas celui qui avait le plus de potentiel, mais il était clairement identifié et depuis a permis à de nombreuses FinTech de trouver leur place. Le domaine du transport a aussi depuis montré son potentiel et même développé des standards d'échanges.

On voit également que l'ouverture des données dans le domaine de la santé est porteur de valeur. C'est ce qui a été démontré dans la crise sanitaire de la Covid pilotée par les données partagées sur toute la chaîne, et sur toutes les chaînes, au quotidien. 

La production des vaccins en une année, ce qui n'avait jamais été fait est aussi un cas d'école de l'échange de données au niveau d'une industrie. Les échanges de données à la semaine pendant toutes les phases d'essais cliniques, entre les agences en charge d'autoriser les vaccins et les industriels qui les testent, ont permis d'impliquer ces agences très en amont et d'accélérer le processus de plusieurs années. Elles ont également pu réduire le risque avec leurs retours réguliers et inciter les industriels à commencer la production avant la validation, ou à abandonner rapidement comme le malheureux vaccin de Sanofi/Pasteur. 

 

Ces deux libérations de données marqueront définitivement l'industrie de la santé à l'avenir, et l'agilité est clairement une rupture de méthode - peut-être pas assez médiatisée - dans un processus qui était plein d'effets tunnels, de ceintures et de bretelles. En revanche, mis à part la prise de rendez-vous avec les plateformes en ligne comme Doctolib, il y bien peu d'API actuellement, mais beaucoup d'échanges csv.

Mais revenons au domaine bancaire. En complément de la FinTech qui est clairement un moteur de transformation de l'industrie qui puise dans l'ouverture des données, la régulation est un autre facteur important de transformation et plus particulièrement "l'open banking" qui oblige les Banques à donner accès à leurs données.

La directive DSP2 a instauré (en 2018) un statut permettant à des tiers non bancaires d'émettre des moyens de paiement (typiquement des cartes) et d'effectuer des paiements à condition que les comptes ne passent pas à découvert (en attendant que ces nouveaux opérateurs soient habilités à faire du crédit). Des acteurs comme Treezor en ont profité pour faire que, la tenue de compte et la gestion des cartes bancaires, puissent être gérées en marque blanche et vendues à des néo-banques se concentrant sur la vente, la relation clients et intègrant ces fonctionnalités sur leurs plateformes via des APIs. Ceci n'est pas sans rappeler dans les télécoms le modèle des MVNO "opérateurs de télécoms mobiles virtuels", qui vendent des services mobiles sans détenir d'infrastructure physique.

Cette directive a permis ainsi la multiplication des nouveaux acteurs et la valorisation des données bancaires, et selon la loi de Metcalfe à l'augmentation de la valeur globale de l'industrie. Ceux qui en bénéficient le plus sont ceux qui collaborent le plus et le plus vite, en faisant grandir l'intégration de leurs services et la taille de leur écosystème. Une réflexion contre-intuitive il y a dix ans dans la Banque.

Les APIs sont donc devenues les éléments principaux d'un écosystème, des business models, sans lesquelles ils ne peuvent fonctionner.  Elles sont devenues stratégiques et l'offre bancaire intègre l'offre API, que ce soit pour créer des nouveaux services (comme l'OTT des Telecoms) ou générer des revenus supplémentaires. Les APIs permettent également de bénéficier des atouts de cette technologie pour sécuriser les accès.

Leur impact sur l'industrie est l'émergence de nouveaux modèles qui demandent aux acteurs de se repositionner par rapport à la production des services et à la relation clients. On retrouve ici l'évolution de la relation SCM-CRM mise en évidence dans d'autres billets. Les banques traditionnelles B2C avec des marques fortes vont tenter d'être des offreurs complets ("Full service provider") quitte à intégrer ou racheter des FinTech, quand d'autres vont se concentrer sur la production de services bancaires ("Bank as a Service"). Les banques d'investissement très ancrées dans le B2B vont devoir intégrer cette approche et développer leur écosystème.

Un autre enjeux est technologique, à l'instar d'Amazon qui d'un côté vend en direct, mais intègre aussi des boutiques tierces et fourni sa plateforme technique avec AWS. Certains acteurs deviendront des plateformes techniques incontournables ("Bank as a Platform"), ce qui n'est finalement pas nouveau dans les moyens de paiements et les services interbancaires, et qui a fait la fortune d'ATOS Wordline autour du réseau des Distributeurs Automatiques de Billets (DAB/GAB).

Enfin d'autres seront tentées par le modèle plus visible de "Marketplace" quitte à intégrer des services sans lien direct avec le domaine bancaire.

La stratégie de Wechat Pay (Tencent - "le Facebook chinois également opérateur mobile") et Alipay (Alibaba - "le Amazon chinois") sont aujourd'hui les plus disruptifs à grande échelle. Les caractéristiques du marché chinois, sa taille, et notamment la révolution des paiements dans la vente de détails, ne sont biens sûrs pas étrangers à cette réussite, et il n'est pas évident qu'elle soit transposable. Les APIs sont exploitées sur leurs plateformes pour tirer bénéfices de tous les autres fonctions (réseau social, shopping, ...) et non en externe avec le monde bancaire.

En moins de 10 ans, ces acteurs ont réussi à désintermédier les banques des opérations de paiement, avec plus d’un milliard d’utilisateurs sur chaque plate-forme, les cartes bancaires et les espèces remplacés par des QR codes et des transactions numériques sur ces plateformes. L'an dernier l'introduction en Bourse de Ant, la banque en ligne d'Alibaba valorisé à 30 milliards, a été suspendue par les autorités chinoise. Une disruption qui devenait peut-être même incontrôlable par les autorités elles-mêmes...

Le pouvoir de transformation des APIs et des plateformes à l'échelle des industries est donc très important. Les quatre modèles d'opérateurs dans ce nouveau paradigme, sont suffisamment génériques pour être transposés à d'autres industries, après s'être inspiré des télécoms. La vitesse de la transformation dans chaque industrie va dépendre de la régulation, bien sûr, mais aussi du degré de fermeture actuel.

Plus c'est fermé aujourd'hui, plus il y aura d'opportunités et de valeur à ouvrir demain, donc attirera en priorité les investissements. Finalement le secteur bancaire est un cas d'école de la transformation d'une industrie par les APIs.

mercredi 11 novembre 2020

5G : un marché de niches... industrielles



Les fréquences 5G sont attribuées et les opérateurs se préparent à appuyer sur le bouton pour activer la 5G sur leur réseau à partir du 18 novembre. Cette activation est juste "officielle" et à plus grande échelle, puisque des autorisations avaient été données pour des zones pilotes. Orange a annoncé qu'il sera là, dès le premier jour de l'ouverture, et Free regarde s'il peut à nouveau mutualiser son réseau avec Orange.

Car maintenant, il va falloir amortir les plus de 2 milliards de la licence versée à l'Etat pour exploiter pendant 15 ans les fréquences libérées, mais surtout les autres milliards d'investissements pour mettre à jour les réseaux. On entre donc dans une phase de ROI - retour sur investissement - pour les opérateurs, mais aussi pour les utilisateurs, grand public ou entreprises et les collectivités.

Pour le grand public, la question est moins la rentabilité économique des usages, que leur rentabilité environnementale.

De nombreuses voix se lèvent, dont les élus sur certains territoires, pour dénoncer des usages "futiles" car leur bénéfice est largement inférieur à l'impact environnemental engendré. On cite en boucle dans les médias la vidéo-X en 4K regardé dans un ascenseur depuis un smartphone avec un petit écran... Une loi est d'ailleurs en préparation pour rendre le numérique plus responsable (voir L'informatique peut-elle être durable ?), qui, a défaut de résoudre quoi que ce soit, permettra au moins de poser un débat démocratique dans ce qui était jusque-là un plan de déploiement technologique, voir technocratique.

Ce qui fait dire à GreenSI que le déploiement, rapide et massif, de la 5G à l'échelle du territoire national est certainement devenu un mythe... 

On est donc parti pour un déploiement progressif, à la fois sur les territoires et sur les performances (débit, latence, connexion massive d'objets, ...), ce qui prendra plusieurs années en France (3 à 5 ans ?). Dans l'ordre, le débit arrivera en premier, puis la faible latence et enfin quand les infrastructures le supporteront, la capacité à gérer jusqu'à 1 million d'objets par km2.

 

Dans ce contexte, pour les entreprises, la question est donc de savoir quels usages exploiter en premier sans attendre un régime de croisière plus lointain. Car la 5G est une technologie de rupture (voir ce billet), elle demande une transformation des modes de fonctionnement, voir des métiers, pour être exploitée à son plein potentiel. Elle doit surtout amener quelque chose de plus par rapport aux autres réseaux déjà existants (4G, Wifi, Nb-IoT) et déjà compatibles avec de multiples terminaux qu'il faudrait changer.

La 4G sera encore, pour de nombreuses années, le réseau mobile par défaut, car comme on l'a vu, la 5G ne sera pas disponible immédiatement sur tout le territoire et dans toutes ses fonctionnalités. Il est aussi illusoire de croire que la 5G couvrira les zones 4G non couvertes, qui ne sont déjà pas rentables pour les opérateurs. Les usages à faible consommation d'énergie vont eux être préemptés par le Nb-IoT, et les réseaux actuels comme Lora ou Wize. Le besoin de débit sur des espaces limités sera préempté par le Wifi et son évolution Wi-Fi, 6 déjà à l'approche aux États-Unis. Le Wifi haut débit est aussi beaucoup plus responsable que le réseau 4G sur le plan environnemental.

Pour GreenSI, il reste donc à la 5G le haut débit en mobilité, et sa faible latence, qui sont ses caractéristiques au-dessus de tous les autres réseaux. Cela ne veut pas dire qu'elle ne pourra pas occuper d'autres terrains de jeu, mais arrivé au ROI, il sera plus difficile de justifier un bénéfice marginal contre un réseau et des équipements existant.

Sur ces usages de haut débit mobile et de faible latence, la 5G va rencontrer le monde industriel. Ne l'imaginez donc pas qu'avec un smartphone, mais aussi avec un objet connecté, en temps réel, qui pourra si besoin nous envoyer un flux de données/vidéo. Certains objets seront pilotables à distance. Toute machine dans une usine peut répondre à ces critères. Dans ce contexte, outre les opérateurs, ceux qui tireront profit en premier de la 5G seront ceux qui imagineront et produiront ces objets "5G ready" qui permettront d'agir à distance. On pense aux fabricants de module 5G à intégrer aux objets et machines, ou d'objets industriels déjà connectés qui seront adaptés à la 5G.

Mais attention, GreenSI ne croit pas aux objets 5G non pilotés par des humains, comme la voiture autonome. La voiture autonome n'a pas besoin de la 5G et Tesla la démontré à grande échelle. Heureusement, puisque comme on l'a vu on aura pas de continuité territoriale du réseau 5G avant de nombreuses années. La presse reprend pourtant parfois cette croyance véhiculée par le marketing de quelques acteurs, qui voyaient peut-être à 10 ou 20 ans. 

C'est donc dans l'industrie 4.0,  qu'il faudra aller chercher la majorité des premiers usages pertinents de la 5G.

A la croisée de la mobilité et du pilotage temps réel, GreenSI est allé creuser l'idée d'un drone autonome qui permet à son opérateur de ne pas avoir à se rendre sur un site, mais de pouvoir agir à distance. Dans les exemples ci-après, ce drone peut être un drone volant, mais il peut être également un engin de chantier, ou pourquoi pas un drone aquatique.

 

Dans le cas du drone volant, l'intérêt est par exemple de pouvoir, suite à une alarme émanant du site, "réveiller" un drone sur ce site industriel pour procéder à une levée de doute visuelle permettant de décider d'envoyer ou non une équipe. On peut ainsi en multipliant les drones sur des sites, envisager une surveillance centralisée, sans renoncer à garder un contact visuel et sonore avec chaque site. Cette vidéo montre les caractéristiques de drones "5G ready" déjà commercialisés. Une autre possibilité est quand le drone peut arriver plus vite que l'équipe d'intervention, notamment en environnement urbain dense. C'est déjà le cas à Monaco, où la 5G est déployée, avec le cas d'usage de la sécurité civile.

Dans le cas de l'engin de chantier (vidéo), l'intérêt est, dans les exemples rencontrés, de renforcer la sécurité des conducteurs, qui peuvent conduire les engins à distance. La mine ou le port de marchandises sont des terrains de jeu propices à ces usages. On peut également imaginer une nouvelle forme d'organisation du travail, avec des plateformes centralisées, que rejoignent les chauffeurs pour réaliser des opérations dangereuses ou techniques.

Dans les deux cas on voit que les métiers évoluent et permettent de s'affranchir, pour certaines actions, de la barrière de la distance. La question du déploiement de la 5G pour l'entreprise est donc bien celle d'une transformation numérique, rendue possible par un mixe entre hardware et software, connecté avec les nouvelles caractéristiques de la 5G. Dans l'industrie c'est ce que l'on met derrière l'appélation Industrie 4.0.

Pour l'opérateur de télécoms, le fait que la 5G n'a besoin d'être disponible que sur le site industriel, et pas sur tout le territoire autour du site, ouvre une autre approche plus sélective pour le déploiement du réseau. Une approche qui permet d'intégrer les usages potentiels, leur valorisation par des entreprises, et donc la capacité à vendre plus de trafic 5G localement en limitant les investissements.

Pour GreenSI, la 5G sera donc certainement un marché de "niches" dans les prochaines années. Si vous voulez en explorer les bénéfices, ne l'imaginez pas disponible partout, pensez objets connectés et mobilité, et trouvez les cas d'usages de vos métiers à cette intersection. Pour décider de les engager dans un contexte 2021 de réduction des budgets SI, c'est bien par le volet transformation et retour sur investissement qu'il faudra les prioriser.

Alors bonne chasse aux usages!

 

 






dimanche 23 février 2020

Europe de l'IA: le début d'une vision?

GreenSI adore les hasards du calendrier.
Ainsi la semaine ou le célèbre institut de technologie MIT annonce aux États-Unis qu'une IA a découvert une molécule candidate pour un nouvel antibiotique, la recherche de la Commission Européenne (JRC) sort un document pour expliquer que l'IA c'est bien, mais que cela peut fragiliser nos infrastructures et surtout qu'il faut stopper les algorithmes que l'on ne comprends pas.

Certes ce sont des questions importantes à long terme. Mais avant de s'imaginer dans un scénario de science fiction, celui qui sera sauvé demain par cette molécule antibiotique appelée Halicin (en référence à HAL de 2001 Odyssée de l'espace) se fichera bien de savoir si on s'explique ou pas pourquoi il est en vie !

GreenSI espère donc que ce rapport "Robustness and Explainability of Artificial Intelligence : from technical to policy solutions" sera le dernier des rapports où on passe plus de temps à expliquer ce qu'il ne faut pas faire, que de se donner une vision pour l'Europe sur ce que l'on pourrait faire pour rattraper notre retard et comment le stimuler.
Voici quelques morceaux choisis des recommandations, qui pour GreenSI sont "hors sol" dans le contexte que l'on connait du retard européen mais aussi vu des démarches d'innovation :
  • "À la lumière des récents progrès de l'IA, les graves conséquences négatives de son utilisation pour les citoyens et les organisations de l'UE."
  • "Les concepts de robustesse et d'explicabilité des systèmes d'IA sont apparus comme des éléments clés pour une future réglementation de cette technologie."
  • "La mise en œuvre d'approches d'explicabilité dès la conception dans les composants de l'IA qui garantiraient le respect des droits fondamentaux."
  • "Une discussion technique sur les risques actuels associés à l'IA en termes de sécurité, de sûreté et de protection des données."
Pourtant la réalité est assez limpide : l'Europe n'a pas à rougir des compétences en matière d'IA, comme cela est mis en avant par toutes les études sur le sujet, mais l'Europe manque de champions de taille internationale, que ce soit d'ailleurs du privé ou du public, quand on pense aux laboratoires de recherche.
Le meilleur moyen de passer de la théorie à la pratique est de pratiquer!

Donc ce dont l'Europe à besoin n'est pas un carcan de nouvelles politiques basées sur des concepts qu'il faudra respecter pour tenter de bloquer les autres (ou alors on suppose que la bataille anti GAFAM et BATX est déjà perdue?), mais bien d'autorisations, d'ouvertures ou de stimulation pour le passage à l'action des entreprises et laboratoires de recherche européens. C'est un changement total de posture de la Commission Européenne qui est attendu.

Prenons l'exemple de Djingo, l'IA assistant vocal développée en Europe par Orange et Deutsch Telekom, dans le plus strict respect du RGPD. Il sort avec deux ans de retard. Djingo aura du mal à rattraper les AlexaBaidu et Google Home qui n'ont pas hésité à collecter le plus d'enregistrements de voix de personnes pour entraîner leur assistant dans toutes les langues. Et quand ce dernier ne comprend pas son utilisateur, ils n'hésitent pas non plus à faire écouter la question par un humain pour améliorer la compréhension de la machine, même sans toujours avoir le consentement éclairé et explicite de l'utilisateur...  

Ce dont l'Europe a besoin c'est d'une vision et d'un chemin pour développer les mégas bases de données qui permettront à la technologie d'IA actuellement la plus prometteuse (le machine learning) de développer des services innovants.

Heureusement cette semaine a eu lieu également la première conférence du commissaire européen au marché intérieur, Thierry Breton, incluant le numérique, sur la stratégie de l'Europe en matière de données et d'Intelligence Artificielle. GreenSI y a vu un le début d’une inflexion prometteuse, puisque l'on commence a dire ce que l'on veut faire, nous les européens, et non uniquement à vouloir réglementer ou alerter sur ce que les autres (américains et les chinois) font

Revenons sur le vocal comme illustration de ce changement de posture vers le pragmastisme. Cette technologie permettrait de baisser la barrière de la langue dans l'intégration européenne. Ce serait un comble que les traducteurs temps réel présentés au CES 2019, et qui traitent toutes leurs requêtes aux États-Unis, soient les seules options pour un européen. Voire que la seule réponse des européens soit de les interdire pour cette raison. D'ailleurs, le parlement européen est le premier utilisateur de traducteurs et d'assistant pour fonctionner en 23 langues (plus de 1000). Il pourrait justifier à lui tout seul le travail sur les assistants vocaux multi-lingues.

Alors pourquoi ne pas se fixer une vision de communication fluides entre européens facilités par l'IA, pour baisser cette barrière ? Mettre en œuvre les autorisations temporaires permettant d'arriver à accélérer les initiatives, même si elles ne sont pas toutes RGPD compatibles. Ce serait plus moteur que d'aller débattre sur l'explicabilité et la robustesse des algorithmes de Deep Learning, non ? Des algorithmes qui d'ailleurs on pour l'instant ont plus de chance d'être créé ailleurs qu'en Europe !

Dans ce contexte l'intervention du commissaire européen Thierry Breton apparait comme une réelle inflexion avec une approche tournée vers la conquête et le pragmatisme, au moins dans sa communication. Il propose de construire une stratégie sur le champ laissé libre autour des données industrielles ce qui tranche avec les approches précédentes, et évite les freins et les débats sans fin autour du RGPD. Il ouvre également une consultation publique et un calendrier accéléré.

Un billet de GreenSI de 2017 abordait d'ailleurs la question "Va-t-on assister à une bataille pour les données des machines ?" et mettait en garde les entreprises à prendre en compte cette perspective et se préparer à protéger dans des contrats la propriété des données, des modèles, de leur accès ou de l'interdiction de leur accès, sous peine que d'autres ne le fassent sans leur demander leur avis.

Un appui de l'Europe serait certainement un formidable accélérateur de cette protection d'une fabrication industrielle qui est la première mondiale. Car la collecte, la modélisation et l'analyse des données des secteurs industriels a de la valeur, et un scénario "à la GAFA" qui tire toute la valeur des données ou du logiciel n'est pas impossible si on laisse les acteurs du Cloud (SalesforceMicrosoft en tête) aspirer les données des entreprises dans leur data centers sous prétexte d'y afficher des tableaux de bord.

Le traitement des données industrielles, c'est même le cœur de la transformation digitale des entreprises de ces secteurs. Donc indirectement c'est un soutien à la digitalisation des entreprises européenne.
La guerre des données industrielles peut donc commencer et l'Europe est certainement un champ de bataille majeur, à cause de son histoire industrielle et du leadership mondial en la matière des entreprises européennes. 
Investir dans des infrastructures de gestion de données et développer une approche et des écosystèmes sectoriels fait donc parti des mesures qui seront vraisemblablement proposées, visant à créer un marché unique des données industrielles. L'open data des entreprises n'est pas loin, mais pas dans une approche gratuite comme elle a été poussée jusque-là (voir: De l'open data à la stratégie de données).


Ces infrastructures commencent sur le terrain, partout où il y a des machines, dans les usines, sur les chantiers, sur les routes, dans les villes intelligentes. L'enjeu des réseaux aériens pour les connecter, collecter les données et les stocker sont des enjeux essentiels.

C'est dans ce contexte qu'il faut maintenant analyser le développement de la 5G en Europe, l'utilisation de technologies non européennes, et la criticité de son développement rapide en Europe. La 5G n'est pas que le sujet des opérateurs et des services de vidéos entre particuliers, c'est bien sûr aussi le sujet de la collecte de données industrielles en masse, en temps réel avec une faible latence, et en complément aux réseaux actuels.
C'est également dans ce contexte qu'il faut revenir sur un billet de 2018, "Edge computing, qui va gérer les données ?" car la majorité des données industrielles ne remonteront plus dans le Cloud et les data centers, comme le paradigme actuel le veut. Elles seront gérées en périphérie ("Edge computing"), cette infrastructure composée de tous les équipement mobiles, des robots d'usines aux véhicules connectés, en passant par les objets communicants.

Cette inversion de paradigme du stockage de données est une disruption pour le modèle des GAFAs, qui pour lutter contre cette vision vont jusqu’à proposer un tarif gratuit pour l'entrée des données dans leur Cloud, et un paiement uniquement à la sortie.

Enfin on constate que l’IA n'est pas une technologie isolée mais un moyen d'innover par intégration de technologies. Ce sera encore plus vrai dans l'industrie avec ses objets connectés, l'Edge et les réseaux comme la 5G (voir : Pensez à relier les technologies entre elles). L'intelligence artificielle doit donc amener à recomposer les industries et les services, et hybrider industriels et champions du numérique. Mais pour favoriser les rapprochements et le développement de ces grands acteurs européens il faudra peut-être que l'Europe revienne sur ses règles de la concurrence qui parfois freinent leur émergence.

D'une Europe réglementaire à une Europe visionnaire, la conduite des changements sera longue à la Commission Européenne. Mais GreenSI veut voir une inflexion dans les dernières annonces du plan IA de Thierry Breton. Son approche aussi est différente puisque c'est via un livre blanc et une consultation publique ouverte jusqu'en mai (disponible ici) qu'il veut enrichir cette stratégie.

dimanche 26 janvier 2020

Pensez à relier les technologies entre elles

En anglais on dirait "connecting the dot", expression favorite de Steve Jobs.
GreenSI a choisi de montrer avec ce billet pourquoi la transversalité des technologies est essentielle et qu'il ne faut pas chercher à tester et lancer des projets en silos. 

Un billet de 2018 montrait comment le drone était en train de se faire sa place dans l'entreprise et dans les services aux entreprises avec le développement du "Drones as a service". Ce service est rendu possible par une plateforme qui à la fois pilote et optimise l'acquisition des données avec les drones, mais également qui traite les données et les restituent aux abonnés du service.
Cette plateforme permet les économies d'échelles qui rendent le service compétitif par rapport à ce qu'une entreprise pourrait faire seule en cherchant à acquérir des drones. Ses domaines de développement sont par exemple l'inspection d'immeubles ou les services à la construction. 

Le drone est ainsi rentré dans le domaine de l'internet des objets (Iot).
Mais le drone mène aussi au développement d'une infrastructure locale de données connue sous le nom de "Edge computing" (voir Edge : qui va gérer les données). En effet, une grande partie de l'attention actuelle accordée à cette "informatique de périphérie" provient de la nécessité pour les systèmes IoT de fournir des capacités déconnectées ou distribuées. Le cloud ayant trouvé ses limites dans les débits de remontés d'information.
Ces limitations seront peut-être dépassées quand la 5G sera disponible partout sur le territoire, mais en attendant, dès qu'on produit 1To de données par jour depuis le terrain, les infrastructures Cloud ne suivent pas, surtout en temps réel.

La promesse du "Edge" est donc de traiter ces données au plus vite, au plus près du terrain, sans faire des allers-retours avec un Cloud, qui aurait tout la puissance requise pour cela, mais pas la bande passante pour y accéder.
L'Edge computing est donc doté de ressources de calcul de plus en plus sophistiquées et spécialisées et d'un stockage de données accru. Au delà des drones il est déjà présent sur les sites industriels et se généralisera avec le développement des drones, des robots et des véhicules autonomes.
Pour une autre raison (le rejet des GAFAs et de leur domination des Clouds) les villes se dotent parfois d'une infrastructure de gestion locale des données et de constitution de leurs maquettes numériques que l'on peut mettre dans le domaine du Edge.
 

Drone et Edge se connectent.
L'intelligence artificielle se nourrit des nouvelles sources de données en masse, celles que produisent les drones. Au départ elle est embarquée pour permettre les fonctions principales de vol, et notamment la stabilisation, et la navigation. Elle va poursuivre son développement avec la coordination de flottes de drones et la gestion de l'espace aérien qui leur sera réservé. Enfin elle va traiter les données acquises et stockées dans l'Edge pour permettre à l'entreprise de prendre des décisions le plus rapidement possible, avec les données d’observation issues des drones.

A la clef, une meilleure efficacité opérationnelle, la réduction des coûts, des interruptions de service, l'amélioration de la sécurité, etc... Le plus souvent dans les domaines que sont la supervision des infrastructures physiques.
Donc les drones possèdent la capacité de créer d'immenses volumes de données, à l'aide de capteurs et de caméra. Pour garantir que ces données sont traitées et analysées, les drones les transmettent au Edge, qui développe des traitements intelligents, le tout supporté par un Cloud, mais en limitant les déplacements de données et répondre aux limitations de bande passante et de connectivité.

Drones, Edge, Cloud et IA, ces technologies sont amenées à être connectés et pensées de concert.
Leur combinaison offre des cas d'usages supplémentaires, à la fois pour fiabiliser chaque technologie par un apport d'une autre, mais également pour les combiner avec une multiplication des possibilités.

Les drones se révèlent alors être les périphériques de traitement et d'analyse de données par eux-mêmes. La combinaison des technologies une redoutable plateforme intelligente de gestion de données.

La tendance est alors celle de drones entièrement autonomes, par exemple pour l'inspection, capables de détecter et d'identifier les défauts ou les dysfonctionnements au plus tôt et sans assistance humaine.

Cette nouvelle architecture amène de nouveaux défis en matière de confidentialité des données, de sécurité et de sûreté. De la même façon que la supervision s'est déplacée des serveurs vers les postes de travail, la supervision va maintenant se déplacer vers ces nouveaux périphériques autonomes. Ne gardez pas en tête la seule image d'un drone volant à hélice. Les drones adapteront leur forme au milieu dans lequel ils vont évoluer. Dans les réseaux d'assainissement, par exemple, ils ressemblent à sortes de jouets robots sur chenilles pour se déplacer facilement dans les canalisations non visitables. D'autres nagerons dans les lacs et remonteront les rivières.


Ces objets autonomes vont permettre une automatisation avec une programmation qui va au-delà de l'automatisation classique. Elle s'appuie sur des modèles de programmation qui exploitent l'IA. Cela permet d'interagir plus naturellement avec leur environnement. Sur domaine privé (mines, usines,réseaux enterrés, entrepôts, bâtiments, ...) les besoins d'adaptation de la réglementation sont moins nécessaires que sur domaine public. Cette évolution est déjà engagée. Sur le domaine public elle prendra plus de temps, mais est déjà dans la tête des élus et des services municipaux, comme le montre l'annonce de Mounir Majoubi en début d'année de proposer de déployer 240 drones de surveillance à Paris.

La question de l'acceptation sociale se posera bien sûr dans les deux domaines, mais il sera difficile de freiner longtemps la tendance à déployer de plus en plus d'objets non contrôlés (mais supervisés en fonctionnement), dans l'espace public. Les caméras de surveillance, qui peuvent être considérées comme des drones fixes dans les 3 dimensions, ont bien réussi à envahir les villes et les alimenter en masse d'images...

Les drones sont donc pour GreenSI une illustration du déplacement de la sécurité et de la supervision à la périphérie d'un système d'information dont le champ ne cesse de s'agrandir.

Un système d'information qui s'hybride de plus en plus avec les systèmes industriels et demande de nouvelles approches non centralisées pour sa gestion, surtout en périphérie.

Un système d'information plateforme, qui comme un porte avion sait se projeter là où les opérations de l'entreprise le demandent.

"Connecting the dot" est aussi une citation célèbre de Steve Jobs pour parler du lancement du Macintosh qui rassemblait à l'époque de multiples technologies, chacune révolutionnaire (la souris, l'interface en fenêtre copiée par Windows plus tard, le processeur...) mais jamais intégrées ensemble.
En connectant entre elles ces technologies innovantes, n'est-on pas en train d'observer l'émergence d'une nouvelle plateforme révolutionnaire ?
-->

samedi 14 septembre 2019

Tesla : le disrupteur disrupté ?


GreenSI s'intéresse à l'aventure Tesla depuis plusieurs années. C'est un cas d'école de l'entrée d'un nouvel acteur dans une industrie, qui, en moins de 10 ans, en change les règles.
 Réciproquement vu du nouvel acteur, c'est un cas d'école de conduite des changements pour avoir un impact majeur sur son industrie et en plus un impact environnemental avec l'électrique. 

On sait aujourd'hui que les barrières entre industries ne sont pas si fortes que cela et que l'irruption peut venir de partout...
C'est aussi un clin d'oeil historique. La domination des moteurs à essence n'était pas acquise il y a plus de 100 ans. En 1899 c'est une voiture électrique (la "Jamais contente") qui a été la première a franchir la barre des 100km/h, et les premières voitures électriques datent des années 1830 au moment du boom de l'électrique industriel. Aujourd'hui c'est un peu leur revanche sur les moteurs à essence.

Mais ce qui fascine avec Tesla, c'est que c'est un industriel qui maîtrise le numérique, qui disrupte des industriels. Le modèle Tesla est lui même aussi disruptif (Tesla, un modèle industriel et agile) que le produit qu'il délivre: une voiture électrique autonome et demain des services de mobilité.

Si compare aux GAFAs, ce n'est pas que Facebook et Google ont moins de mérite à s'engouffrer avec du logiciel entre les marques et les consommateurs pour changer la donne en matière de publicité, avec parfois un effet de bord sur la démocratie, mais ils n'ont pas en plus à gérer une chaine logistique avec des produits physiques qui interagissent sur de vielles infrastructures (les routes).
Quand à Apple qui fabrique des smartphones, ce sont ses sous-traitants chinois qui ont développé l'outil industriel nécessaire à la production de ses produits phares. Seul Amazon a inventé, avec des robots dans ses entrepôts, le moyen de supporter ses immenses flux de commandes et la gestion de ses millions d'e-boutiques partenaires avec une usine logistique aussi innovante que l'expérience utilisateur qu'il délivre. La supply chain est un avantage compétitif majeur.

Cette semaine Tesla a fait l'actualité pour reprendre la main face à Porsche qui lançait, quelques jours avant, son modèle Taycan, une voiture électrique annoncée comme défiant la suprématie de Tesla sur le segment haut de gamme depuis 2012.

D'autres constructeurs historiques avaient déjà annoncé des modèles concurrents à Tesla, mais les experts du domaine automobile ne les ont jamais mis au niveau de la Tesla Model-S. Seule la Porsche Taycan est vue aujourd'hui comme un sérieux concurrent de Tesla. Lors du lancement, la communication a fait un buzz mondial et les pré-commandes internet (une façon de faire lancée par Tesla) ont dépassé les 30.000 exemplaires avant sa sortie. De quoi challenger Tesla...

La nouvelle Porsche électrique à $185K ne met pas en péril le modèle de Tesla qui vise la rentabilité avec la production en masse de son Model-3 à $35K et surtout les mises à jour payantes du logiciel de ses voitures. Mais être le leader du haut de gamme électrique a été la stratégie d'entrée de Tesla, perdre cette place peut fragiliser son image... et l'égo de son PDG, Elon Musk !

Ce dernier a donc relevé le défi et envoyé en dix jours une Model-S "remasterisée" sur le circuit de test de Nürburgring, en Allemagne de l'Ouest, sur le terrain de Porsche (l'anglais a été racheté par l'allemand VW), avec l'objectif de battre la Porsche Taycan. Dans le même temps Tesla est allé battre un record (non homologué) sur le circuit de Laguna Seca pour démontrer qu'il ne bluffait pas.

La bataille aurait pu s'arrêter là, mais voilà que la course de voitures électriques sans conducteur Roborace, vient cette semaine de défier Tesla pour participer à une de ses prochaines compétitions. Une de ces courses sans conducteur a eu lieu à Paris en 2017 sur la place des invalides.
Chaque participant à la même voiture (DevBot 2.0), pilotable par un humain ou une IA, et chacun peut donc y brancher son Intelligence Artificielle pour concourir. On peut donc se faire affronter des pilotes contre des IA ou des IA entre elles, et collecter les données pour entraîner les IA à s'améliorer quand les humains conduisent.


Tesla est aussi le leader des voitures sans chauffeur, mais pas nécessairement pour enregistrer des records sur des circuits, quand l'IA des gagnants d'une Robocar cherche une victoire pour marquer les esprits. Ce n'est pas sans ressembler à IBM Watson qui a battu des humains à Jeopardy en 2011 ou Google AlphaGo qui a battu le champion du monde de jeu de go en 2016, qui cherchaient à marquer les esprits et démontrer la puissance des algorithmes.
Au moment où GreenSI publie cet article, Elon Musk n'a pas répondu au défi lancé sur Twitter.
L'industrie automobile se retrouve donc avec trois participants qui visent à gagner la bataille de l'image pour le segment des voitures électriques quatre portes haut de gamme :
  • le constructeur déchu qui contre-attaque,
  • le nouvel entrant qui a inventé une image, une usine et un produit,
  • l'intelligence artificielle, qui n'a pas de produit, mais veut montrer sa domination sur le pilotage.
Pour GreenSI cette combinaison va se reproduire dans d'autres industries. Il faudra trouver la bonne combinaison entre matériels, logiciel et humains, pour développer un avantage compétitif nouveau et prendre une position décisive pour la conquête d'une industrie.

Malgré le buzz autour de ses applications, qui oubli parfois les limites de son industrialisation, l'IA n'est pas infaillible. Elle n'est pas en mesure de remplacer tous les emplois d'un secteur et de conduire à un monde avec uniquement des machines. L'humain reste meilleur que la machine dans de multiples compétences. Industrie par industrie, c'est la meilleure combinaison entre l'homme et la machine dopée à l'IA qui sera déterminante. 

Prenons l'exemple de la Sécurité et d'une société de gardiennage qui loue son personnel pour surveiller des sites industriels. C'est une activité qui repose sur le recrutement et la formation de gardiens. On peut facilement imaginer un nouvel entrant qui propose de la vidéo surveillance, puis avec l'expérience, complète son offre avec une analyse intelligente et automatique des vidées pour la détection des risques.
Mais une fois détectée, une alerte, même vidéo, même intelligente, doit être levée et traitée. Si du personnel est sur le site, elle le sera plus rapidement qu'avec une centralisation en dehors du site. L'équilibre en l'homme et la machine va se trouver entre la capacité de détection de la machine et celle d'intervention de l'homme. L'activité devenue hybride repose toujours sur la formation des gardiens et leur accompagnement à travailler avec l'IA, mais également sur l'entraînement permanent de l'IA pour l'analyse d'images.

Les sociétés de vidéosurveillances traditionnelles vont réagir à ces nouveaux entrants par un service plus intelligent, quand les nouveaux entrants grâce à la technologie vont eux ajouter plus d'humains. Ce qui fera la différence c'est la plateforme intelligente sur laquelle ces sociétés vont s'affronter. On pourrait multiplier cet exemple à l'infini avec des drones intelligents, des assistants vocaux intelligents... qui vont tous arriver sur le lieu des opérations de l'entreprise.

Le prochain billet explorera comment construire, demain, ces architectures intelligentes et connectées.
Dans le cas de Tesla, à partir de la Model 3, la technologie c'est un ordinateur (FSD pour Full Self-Driving), qui est intégré dans chaque véhicule depuis le 12 avril, et qui permettra une conduite entièrement autonome via de futures mises à jour logicielles envoyées automatiquement par Tesla. Elon Musk mise donc à 100% sur l'intelligence artificielle couplée à la puissance de traitement temps réel de l'ordinateur embarqué.
 
Il est vrai que l’ordinateur des Model S/X (lancés en 2012) est issu du partenariat avec Mobileye et non un FSD. Il y a donc fort à parier qu'une version de la Model-S sortira avec le hardware FSD et l'Autopilot 2.0 en 2020.
Il n'y a donc aucun doute pour GreenSI que Tesla est bien armé pour défende son image à la fois contre Porsche et contre Roborace. La course va être passionnante si on ne s'arrête pas à juste savoir qui met le moins de secondes pour passer de 0 à 60mph ;-)
____________________________
Mise à jour au 21 septembre : Tesla a annoncé la sortie de la Model-S en 2020 et a battu Porsche sur le redoutable circuit de Nürburgring même si la bataille pour l'homologation n'est pas encore gagnée

dimanche 20 janvier 2019

Êtes-vous prêt.e.s pour la rupture de la 5G ?

L'agitation sur le CES2019 étant retombée, la question de savoir si la France avait envoyé trop ou pas assez de startups ne faisant plus les titres, on va pouvoir maintenant analyser cette formidable source d'informations sur la technologie mondiale et en tirer des actions concrètes pour sa propre stratégie. Ce billet se propose d'explorer une technologie qui a l'air de venir plus vite que prévue, la 5G. Êtes-vous prêt.e.s pour la rupture ?

Avec l'intelligence artificielle, la 5G a clairement été mise en avant à ce CES 2019. Mais contrairement à l'IA qui avait déjà été la star d'au moins deux CES avec Alexa d'Amazon depuis 2017, c'est la première sortie d'ampleur et grand public pour la 5G, en dehors des salons pour initiés comme le Mobile World Congress.

Deux PDG de deux opérateurs déployant des pilotes 5G ont fait le déplacement à Las Vegas pour les keynotes, Hans Vestberg(Verizon) et John Donovan (AT&T).

Pour insister sur la disponibilité de la technologie, le premier client 5G de Verizon, un certain Clayton vivant à Houston, a même été contacté en visioconférence pendant la plénière et a fièrement affiché en direct un "speedtest" à 690Mb/s sur son ordinateur, une valeur qu'il a déclaré plus faible que d'habitude. Comme quoi l'effet démo ce n'est pas une légende puisque le débit de la 5G annoncé pour marquer les esprits est d'au moins 1 Gb/s.
Mais à quoi peut servir un débit plus de 20 fois supérieur au débit de 30Mb/s demandé pour utiliser l'application actuellement la plus consommatrice en débit temps réel au domicile, la télévision 4K 

Bien sûr, sur mobile c'est différent et ce débit peut en booster l'usage, mais l'écran étant plus petit son besoin en débit est aussi plus faible.
Donc pour GreenSI, pour l'instant, ce débit ne sert pas à grand-chose pour la majorité des particuliers qui vivent en zones urbaines et en l'état des applications actuelles. Pour ceux à la campagne, cela reste une promesse alléchante, mais attention aux chimères car si le bas débit est prometteur, le modèle économique pour financer un réseau servant peu d'abonnés reste toujours aussi compliqué que ce soit la 3, la 4 ou la 5G.

Ce sera plus vraisemblablement du côté de l'entreprise qu'il faudra à court terme aller chercher les nouvelles applications qui vont vraiment exploiter - et financer - ce nouveau réseau mobile.

La première fausse bonne idée à tuer c'est que la 5G, après la 4G et la 3G, ne serait qu'une augmentation du débit. Verizon a d'ailleurs égrené dans la keynote de Hans Vestberg les huit capacités (bizarrement appelées monnaies - "currencies") de la 5G. Il a invité sur scène des sociétés partenaires pour parler de chacune.

Au moins deux de ces capacités sont des ruptures par rapport à d'autres technologies et vont permettre réellement de développer de nouvelles applications. Il s'agit de la latence de 5ms (temps nécessaire au réseau pour répondre à une requête) et même 1ms sur le papier, ce qui rend possible le quasi temps réel à distance, et de la densité d'un million d'équipements connectés par km2 associé à un débit de 10Tb/s.
Ce sont ces caractéristiques qui vont rendre possible le passage à l'échelle de tout ce qu'on peut déjà lire sur les objets, les maisons ou les voitures connectés, la réalité augmentée ou virtuelle en temps réel et surtout à distance. Tous les analystes parlent de 30 à 50 milliards d'objets connectés en 2030, en restant plus discret sur l'énergie pour les alimenter et la saturation des réseaux pour les connecter...

Ce sont également ces mêmes caractéristiques qui vont certainement limiter les applications d'un autre buzz du moment, l'accès internet par satellite. Alors que le meilleur réseau gagne...



La performance de la 5G ce sera de déployer un réseau plus dense, exploitant des fréquences plus élevées que la 4G (ondes "millimétriques"), pour obtenir ces débits et cette vitesse, d'où la capacité de traiter plus de connexions dans chacune des (plus petites) cellules.


Si la 5G devient une opportunité de marché de masse, GreenSI pense que sera dans celui des objets connectés. Il est en effet toujours plus facile de déployer un nouveau réseau avec de nouveaux équipements et de nouvelles applications, que de changer tous les téléphones, modems et box de ceux qui ont déjà un accès. La 5G demande de lourds investissements pour les opérateurs, l'achat de nouvelles fréquences (même s'ils vont aussi réutiliser celles de la 4G), qu'il faudra bien amortir avec des revenus supplémentaires, sans cannibaliser leurs offres actuelles qui financent la fin du retour sur investissement de la génération précédente. 

Et puis n'oublions pas que les opérateurs veulent se refaire après avoir été "dépouillés" par les GAFAs d'une grande partie de la valeur du déploiement des réseaux internet et internet mobile. La 5G ce sera donc certainement le début de tentatives de repositionnement dans la chaîne de valeur et l'écosystème de l'accès internet - puces des smartphones, modems, électronique objets connectés, équipementiers télécoms, opérateurs, logiciels, etc., de tous ceux qui pensent ne pas être rémunérés à leur juste effort (voir Delta - Free a tout compris à la maison connectée).

L'annonce de deux partenariats entre Verizon et des labs d'entreprises - Disney et Times - sont le signe que la 5G va permettre de réinventer la diffusion d'information. Une démo de Times montre comment on passe de la simple vidéo d'une news à la possibilité d'explorer l'information et littéralement de se projeter sur les lieux d'un événement.

Ces labs ont donc pour mission d'imaginer ces nouvelles expériences utilisateurs, comme une information plus immersive, qui feront la différence, permettront aux producteurs de contenus de se différencier tout en stimulant l'adoption par les internautes des nouveaux smartphones qui permettront d'en bénéficier.

AT&T est aussi convaincu du potentiel de rupture amené par la 5G. Il a présenté sa vision de l'hôpital connecté et du stade connecté. C'est au Rush Medical Center à Chicago que pour AT&T s'invente l'hôpital du futur, avec en complément de la 5G le nécessaire "Edge computing" qui rendu nécessaire pour la gestion en local de la profusion des données générées (voir Edge, qui va gérer les données ?).
Contrairement à Apple qui a lancé seul il y a 10 ans la dernière rupture dans les smartphone avec l'iPhone, la 5G sera plutôt une technologie collective où certains vont essayer d'en tirer plus de bénéfices que d'autres, souvent en prenant plus de risques, plus tôt. 
La nouvelle expérience client sera donc clef pour vendre la valeur de la 5G.

Cependant, d'autres axes de recherche de ces nouveaux modèles existent certainement dans les entreprises autour du travail à distance et, de façon plus classique avec une nouvelle technologie, de la productivité.
La 5G donne la sécurité d'un pilotage à distance d'opérations demandant de la précision. Les opérations à distance par des chirurgiens pilotant des robots situés à côté du patient ont déjà été réalisées avec des équipements très sophistiqués. La 5G promet d'en faire une commodité. 
Avec la 5G on peut imaginer des drones connectés avec un débit permettant de prendre des vues avec une meilleure résolution et même de les piloter à distance. En laissant un drone sur un site isolé, quand une alerte remonte, on peut l'activer et le piloter pour rapidement avoir des données sur la situation et mieux décider de la suite à donner. On peut également imaginer scanner régulièrement ses installations pour mettre à jour leur "jumeau numérique". L'exploitation de cette capacité d'échange de données massives va également rendre plus attirante les applications de réalité augmentée et virtuelle.



La santé, la production et l'industrie plus largement, le transport et la distribution vont certainement être les premiers secteurs avec des applications concrètes... une fois les réseaux déployés. Car il est vraisemblable que les priorités de couverture du territoire soient définies en fonction des usages et de leur valeur pour l'opérateur. Le classique problème de la poule et de l'œuf.

En France l’arrivée de la 5G est attendue pour 2020, comme dans plusieurs autres pays dans le monde dont les États-Unis, la Chine ou la Corée du Sud. Mais ce calendrier pourrait être bousculé par la bataille économique que les États-Unis livrent à la Chine et notamment les multiples actions engagées contre Huawei - un investisseur majeur en R&D 5G - ces derniers mois. La maitrise technologique de la Chine, dans l'IA, les drones ou l'e-commerce, commence à agacer le bureau ovale. La dernière en date visant à bloquer la vente de puces américaines à Huawei et ZTE, ambiance...

La 5G est donc clairement une réelle opportunité de rupture pour les entreprises, et certainement une opportunité de redistribuer les cartes des télécoms data dans les 10 prochaines années. Mais son déploiement, au-delà des premiers "uses cases" localisés, pourra prendre du temps. Il est donc encore un peu tôt pour la majorité des entreprises pour démarrer des expérimentations en 2019, en revanche de comprendre les limites actuelles de son modèle d'opérations, avec le prisme des capacités futures de la 5G, est certainement un bon moyen de s'y préparer.
Et si je pouvais opérer une machine à distance, laquelle ça serait ? A vos labs, prêts, partez !
_________________________ 

NB: GreenSI a décidé en 2019 d'utiliser un peu d'écriture "inclusive", comme dans le titre de ce billet, pour rappeler que la féminisation des métiers de l'informatique doit rester un objectif dans l'intérêt de tous.

samedi 27 octobre 2018

ERP digital: quand SCM et CRM ne feront plus qu'un

ERP digital: quand SCM et CRM ne feront plus qu'un

GreenSI s'intéresse à l'évolution de l'ERP au sein des systèmes d'information et des entreprises depuis au moins 2012. Le leader mondial actuel, SAP, est aussi le créateur de la catégorie dans les années 70s, appelée MRP - "Materials Ressources Planing" - avant de quitter l'usine et de devenir ERP - "Enterprise Ressources Planing" - et d'ancrer son rôle au cœur du SI.

Cette longévité montre certainement une adaptation permanente de l'ERP aux besoins de l'entreprise mais également une certaine lenteur, pour ne pas dire inertie, pour pouvoir en changer. D'ailleurs selon la dernière étude du CXP en 2017, 54% du parc est âgé de plus de huit ans et jusqu'à beaucoup plus.

SAP a eu 4 versions majeures en 40 ans (R/1, R/2, R/3, S4) quand l'iPhone en a eu 10 en 10 ans. Pour SAP, on a globalement une version a chaque adaptation radicale d'architecture des systèmes d'information (mainframe, départemental, client-serveur, internet-cloud) ce qui correspond aux attentes de stabilité des entreprises quand ces systèmes gèrent la finance ou le back-office. Mais ce n'est pas leur choix pour la relation clients.

Cette comparaison, qui traduit l'accélération de l'innovation numérique, montre également que le rythme d'évolution du code de la prise de commande sur smartphone est dix fois plus rapide que celle du bout de code qui donne l'ordre de délivrer la même commande dans l'entrepôt de l'usine. Et souvent la commande est en temps-réel quand la logistique en batch et qu'il faut attendre le soir pour traiter les données de la journée.

C'est un des freins à la digitalisation des processus. Ceux qui sont engagés dans la transformation digitale savent qu'il est plus facile de repenser un portail d'accès à l'information en mode agile, que de l'intégrer au SI, surtout quand ce SI est majoritairement un (ou plusieurs) ERP.

L'ERP a déjà essayé de résoudre ce problème il y a 10 ans, quand le front-office n'était que le CRM d'un centre d'appels. À cette époque Oracle Applications, surfant sur la vague des architectures SOA, a lancé le programme "Fusion" qui visait à re-architecturer son ERP avec un objectif ambitieux : "Changing the game" (pour reprendre le communiqué de presse encore sur le site de l'entreprise !).

Force est de constater que dix ans plus tard ce programme n'a pas encore totalement abouti et que les règles du jeu n'ont pas encore changé. Il y a deux, Oracle a d'ailleurs racheté Netsuite, nativement sur le Cloud et pas mauvais pour le SCM, ce qui pour GreenSI est l'aveu du retard prix sur sa gamme historique "Oracle Applications", que l'éditeur tente de rattraper.

Mais entre-temps les DSI n'ont pas attendu et ont construit elles-même le middleware pour "APIser" leur SI, ouvrir les ERP, et découpler le front-office (qui se déplace sur Internet et dans les objets connectés) du back-office (qui assure la gestion des ressources et des transactions). On va y revenir.
Ce qui a attiré l'attention de GreenSI en cette rentrée, ce sont deux conférences sur la vision d'un CRM et d'un SCM qui se parleraient mieux. L'une par SAP à Paris sur "La supply chain intelligente, au cœur de votre transformation vers l’omnicanalité" et l'autre à San Francisco lors de l'Oracle OpenWorld, sur l'automatisation de processus intelligents de bout en bout

Le digital a permis de faire évoluer le CRM avec des plateformes Internet omnicanales (voir API, les dessous de l'omnicanal), mais la Supply Chain (et le SCM qui l'outille) a du mal à suivre comme l'indique cet extrait de la conférence SAP du 16 octobre :

 
Ne pouvant utiliser l'ERP, certains DSI ont construit des portails sur internet exploitant les données de l'ERP avec des architectures d'API. Ils se sont parfois retrouvés avec des redressements de licences de la part des deux grands éditeurs, comme si tout front-office exploitant les données de l'ERP devait payer une licence. Cette position est contestée en France par les associations de DSI. Elle est déjà remise en cause au tribunal en Allemagne par l'association VOICE qui estime que la politique de licence SAP pour une utilisation indirecte est illégale. Idem pour Oracle qui n'est pas en reste et cumule en plus la difficulté d'avoir une licence pour utiliser ses bases de données dans un Cloud.

La rupture technologique entre front-office et back-office, révélée par le digital, est donc aussi une rupture de confiance entre les éditeurs et leurs clients.

Et puis les progiciels plus récents, nativement dans le Cloud, comme Workday ou Netsuite et même Odoo en open source, ont les architectures les plus modernes et savent bien gérer la continuité de l'expérience utilisateur.

Enfin les startups qui utilisent le "Business Model Canvas" (ci-dessous), mis au point par Alex Osterwalder, savent bien que le cœur d'un modèle économique est une proposition de valeur (au centre) portée vers les clients ciblés par un front-office (à droite), mais que l'expérience utilisateur est également délivrée en temps réel et de façon intelligente par le back-office (à gauche), via des compétences et une logistique sans failles.

Uber, dont le business model canvas figure ci-dessous, a par exemple une app mobile pour les clients (son CRM), une app mobile pour les chauffeurs (son SCM) et une plateforme avec l'intelligence des algorithmes pour les relier.

 
Imaginez un théâtre où vous mettez en scène le bénéfice client amené par vos produits. Le CRM c'est la scène visible par les clientsle SCM, ce sont les coulisses qui gèrent la logistique de la pièce. L'entreprise gagne de l'argent quand les coûts de production sont inférieurs aux recettes, ce qu'elle vérifie en permanence avec les transactions enregistrées dans l'ERP. 
Dans une économie numérique, Supply chain et CRM fonctionnent ensemble, pour le bénéfice d'une unique expérience clients et de la rentabilité économique de l'entreprise.

Les ERP n'ont pas d'autre choix que de proposer des modules SCM et CRM qui savent traduire de façon intelligente et en temps réel cette réalité. Ces deux modules viennent de basculer dans le digital, dans l'omnicanalité, et certainement aussi dans le Cloud. SI vous devez faire évoluer votre ERP, intégrez-le dans votre stratégie SI en vous reposant la question pour chaque fonction sur sa contribution au business modèle (notion de back-office transactionnel ou de front-office digital).

Salesforce, né dans le Cloud, est aujourd'hui leader du CRM en SaaS avec plus de 50% des parts de marché annuel en misant dès 2000 sur un modèle Internet. 

Pour GreenSI, boosté par le digital, le SCM devrait être le prochain à basculer massivement dans le Cloud. Seul le Cloud, public, privé ou hybride, a la capacité à fédérer de multiples acteurs de chaînes logistiques de plus en plus complexes, y compris des machines autonomes, pour opérer en temps réel et délivrer l'expérience client attendue.

Après tout le leader de la logistique mondiale, n'est autre que le leader de la vente et que le leader du Cloud : Amazon. SCM, CRM et Cloud sont à exploiter pour votre transformation digitale.

L'humour de ceux qui aiment le numérique